Sommaire : Trois questions à Sylvain Marchand, prix Specif | L'actualité de la semaine : Quelle harmonie pour les langues de l'Europe ? | Théories et concepts | Enseignement | La recherche en pratique | Manifestations | Le livre de la semaine |
ABONNEMENT/DESABONNEMENT | PAGE D'ACCUEIL DE L'ASTI | DICTIONNAIRE | NUMEROS PRECEDENTS
"Je me suis intéressé très tôt aux sons, à ce qui se cache à l'intérieur"
Hebdo : Votre thèse sur la modélisation informatique du son musical vient d'être primée par Specif. Quel en est le point vraiment novateur le plus novateur ?
Sylvain Marchand : Une de ses avancées spécifiques est l'emploi des dérivées du signal pour l'analyse des sons et les phases ultérieures de traitement. En effet, à partir d'une transformée de Fourier classique, il n'est pas possible de retrouver la fréquence d'une sinusoïde avec précision. Selon la taille de la fenêtre d'analyse, on perd soit en précision temporelle, soit en précision fréquentielle. La dérivée fournit un signal qui permet de déterminer avec précision la fréquence et l'amplitude de la sinusoïde d'origine, du moins tant que la variation de ces paramètres n'est pas trop rapide (en l'occurrence, pas plus vite que la plus basse fréquence audible, soit environ 20 Hertz).
La précision de la méthode d'analyse est primordiale car elle est le facteur essentiel de la qualité perçue pour les sons résultants. Une comparaison avec les méthodes existantes d'analyse spectrale a montré que la méthode ainsi développée est excellente aussi bien en fréquence qu'en amplitude.
On trouve également dans cette thèse un modèle spectral pour le son qui constitue une base solide pour l'étude scientifique du timbre, et une méthode de synthèse en temps réel efficace pour générer en temps réel un son numérique à partir de sa modélisation.
Hebdo : Comment vous situez-vous dans la communauté des chercheurs en Stic. Avez-vous besoin de machines spéciales ?
S.M. : Je me suis très tôt intéressé aux sons, à comprendre "ce qui se cache à l'intérieur", à la manière de les contrôler. Alors que fréquence et amplitude allaient de soi, le timbre me paraissait beaucoup plus mystérieux. L'Université m'a permis de m'y consacrer, et je vais pouvoir poursuivre ma passion, puisque je suis maintenant maître de conférences à l'université de Bordeaux 1. Je suis intéressé avant tout par la recherche, mais j'aime aussi l'enseignement.
Ce travail a un caractère inter-disciplinaire : traitement du signal (donc physique) mais aussi mathématiques appliquées pour l'analyse du son, informatique pour, par exemple, calculer rapidement dans la phase de synthèse, mais aussi psycho-acoustique pour s'alléger de données inutiles (car inaudibles).
Je travaille dans le cadre du
Labri. Historiquement,
c'est un laboratoire d'informatique théorique. Mais, au fil du temps, il s'est
doté d'une équipe image et son, qui comprend trois thèmes principaux :
- analyse et structuration d'images ;
- modélisation et synthèse d'images ;
- modélisation, analyse et synthèse du son et de la musique.
Au niveau technique, les machines du commerce nous suffisent très bien. A la différence des débuts de l'informatique musicale, il n'y a plus besoin de machines spéciales ou de cartes électroniques comme la 4X. Les PC récents et les processeurs grand public ont désormais une puissance suffisante pour traiter le son en temps réel.
Quant aux plates-formes logicielles, nous sommes favorables à une diffusion libre de la recherche publique, et nous distribuons tout ce que nous faisons, sous licence GPL. Cela n'exclut pas d'utiliser ces travaux dans le cadre de produits commerciaux,
Hebdo : Vos travaux ont donc des perspectives de débouchés industriels ?
S.M. : Les applications potentielles vont de la médecine (analyse d'électrocardiogrammes) à la Défense (images radar), en passant par l'indexation et la classification des sons. Mais nos partenaires habituels sont musiciens, et en premier lieu les compositeurs du Conservatoire national de région de Bordeaux, dans le contexte de la musique électro-acoustique. Ils nous soumettent des problèmes, nous leur proposons des outils. Nous coopérons dans le cadre du Scrime, cellule d'activité qui rassemble artistes et scientifiques. Myriam Desainte-Catherine, qui a dirigé ma thèse, en assure la direction scientifique.
Notre méthode permet, par exemple, d'étirer ou de comprimer le son dans le temps, sans créer d'artefacts déplaisants. Les résultats sont agréables à l'oreille... sauf dans certains cas où les sons pris comme point de départ ne rentrent pas bien dans le modèle et donnent en sortie des résultats inattendus.
Nous avons appliqué cela notamment dans le projet Dolabip, basé sur le modèle spectral de ma thèse, avec une modélisation des sons par quatre paramètres : amplitude, fréquence, couleur et inharmonicité (ce dernier exprime le degré de déplacement des harmoniques par rapport à leur position théorique, c'est en quelque sorte un taux de dissonance).
Dans le cadre de ce projet, nous avons aussi fait un transfert technologique par l'intermédiaire de la société Algory. Elle a repris une maquette que nous avions développée et en a fait un produit commercialisable.
Session I : la diversité linguistique de l'Europe
Alors que la politique linguistique de la France s'ouvre aux langues de France et que la Francophonie oeuvre pour le dialogue des cultures, la dynamique de la mondialisation vient modifier les situations linguistiques établies. Que deviennent les politiques linguistiques dans ce nouveau contexte ?
Les ensembles de langues apparentées qui cohabitent dans l'espace européen sont des sources de compréhension entre les personnes. L'activité terminologique y puise toute sa vigueur. L'année européenne des langues a été l'occasion de nouvelles initiatives comme le Portfolio, se dessine alors en Europe un cadre de référence pour les langues.
Mais les technologies de l'information (TIC) sont-elles prêtes pour représenter la diversité des langues écrites de l'Europe et de leurs systèmes d'écriture ?
Session II : vivre le plurilinguisme et l'interculturel
Des équipes universitaires travaillent sur l'apprentissage de la compréhension multilingue, le projet EuRom4 a traité des langues romanes. L'élargissement de l'Union européenne aux pays de l'Est et de la Méditerranée pose à nouveau la question d'une pratique langagière multilingue. Notre diversité linguistique et notre richesse culturelle en dépendent. Leur négation serait un appauvrissement.
Session III : l'aide des TIC pour respecter les langues et les cultures ?
Sur le plan technique des faits marquants ont jalonné ces 20 dernières années quant à l'apport de l'intelligence artificielle au traitement automatique des langues et à la représentation des connaissances, aux acquis de la traduction automatique, à l'évolution de la recherche d'information multilingue. Toutefois sur le plan culturel de réels enjeux sont perceptibles qui font que le respect de la diversité culturelle reste une quête permanente notamment sur la toile.
La mission constate des ambiguïtés dans l'utilisation de sceaux, logos, signes distinctifs ou codes de conduites par certains acteurs. Cette situation nécessite une clarification des concepts et une sensibilisation des consommateurs et des professionnels.
Pour concourir, télécharger le dossier de candidature a catégorie de trophée de votre choix à l'adresse suivante : dossier de candidature, et le retourner avant le 8 février.
L’apprentissage des connaissances des logiciels se fait durant les cours. Etant lycée professionnel et technologique, les référentiels des diplômes intègrent la capacité à utiliser les outils de bureautique et les nouvelles technologies de l’information et de la communication. Ce ne sont pas des cours qui s’intitulent bureautique (sauf exception en Sciences médico-sociales) mais gestion et informatique (où l’apprentissage d’Excel et d’Access est obligatoire pour les projets à mener) ; communication et organisation (où les logiciels Word, PowerPoint et Internet sont incontournables).
Rappelons qu'il s'agit d'un chercheur en sciences cognitives et en intelligence artificielle connu pour son originalité et notamment par son ouvrage Gödel, Escher, Bach publié en 1979. Deux autres livres l'ont prolongé : Vues de l'esprit(avec Daniel Dennet) et Metamagical Themas
Plus surprenantes sont les ambitions affichés par les réseaux de Petri avec la collection d'articles regroupés sous le titre "Unifying Petri nets" (Springer 2001), sous la direction d'Hartmut Ehrig, Gabriel Juhas et Grezgorz Rozenberg. Dans leur texte introductif, Jörg Desel et Gabriel Juhas lancent "Le nombre croissant de variantes des réseaux de Petri conduit à se demander si le mot ne recouvre pas, en fait, des réalités très différentes". Ils s'attachent ensuite à en montrer la cohérence, la diversité et la place parmi les différentes "analyses".
Notons, au passage, la jolie expression "process landscaping" (modélisation des processus distribués) ainsi que l'atelier "Petri net baukasten" développé au DFG-Forschergruppe Petrinetz.Technologie de Berlin, avec ses trois niveaux : expert, développeur d'applications, développeur d'outils.
Mais surtout, au fil des pages, on voit se multiplier les incursions conquérantes dans des domaines a priori bien éloignés de ce qui ne semblait, au départ, qu'une sorte d'astucieux bricolage pour modélisateurs : comportements, automates généralisés, sémantique des réseaux contextuels, et même (excusez du peu) : "réécrire la logique comme cadre unificateur des réseaux de Petri". Aristote doit se retourner dans sa tombe. Verrons nous, demain, un concept intégrer tous les autres ? Parions que ce sera plutôt un paradigme, c'est à dire des concepts en réseau (de Petri, bien sûr). P.B.